リッジ回帰(Ridge regression)
損失関数(Loss function)に正則化項(Regularization term)を入れて過学習を抑制する方法の1つ。
L2正則化
正則化(Regularization)
$ \min_{\boldsymbol{w}} \left\{ \sum_{i=1}^{n} (y_i - \boldsymbol{x}_i^T \boldsymbol{w})^2 + \lambda \|\boldsymbol{w}\|^2_2 \right\}
この関数を w に関して微分し、その導関数を0と置くことで最適な w を求めることができる
$ \boldsymbol{w} = (\boldsymbol{X}^T \boldsymbol{X} + \lambda \boldsymbol{I})^{-1} \boldsymbol{X}^T \boldsymbol{y}
hl.icon
リッジ回帰とラッソ回帰の理論と実装を初めから丁寧に
ラッソ回帰(least absolute shrinkage and selection operator; Lasso regression)